磁共振图像(MRI)中的脑肿瘤分割(BTS)对于脑肿瘤诊断,癌症管理和研究目的至关重要。随着十年小型挑战的巨大成功以及CNN和Transformer算法的进步,已经提出了许多出色的BTS模型来解决BTS在不同技术方面的困难。但是,现有研究几乎没有考虑如何以合理的方式融合多模式图像。在本文中,我们利用了放射科医生如何从多种MRI模态诊断脑肿瘤的临床知识,并提出了一种称为CKD-TRANSBTS的临床知识驱动的脑肿瘤分割模型。我们没有直接串联所有模式,而是通过根据MRI的成像原理将输入方式分为两组来重新组织输入方式。具有拟议模态相关的跨意义块(MCCA)的双支支混合式编码器旨在提取多模式图像特征。所提出的模型以局部特征表示能力的能力来继承来自变压器和CNN的强度,以提供精确的病变边界和3D体积图像的远程特征提取。为了弥合变压器和CNN功能之间的间隙,我们提出了解码器中的反式和CNN功能校准块(TCFC)。我们将提出的模型与五个基于CNN的模型和六个基于Transformer的模型在Brats 2021挑战数据集上进行了比较。广泛的实验表明,与所有竞争对手相比,所提出的模型可实现最先进的脑肿瘤分割性能。
translated by 谷歌翻译
超声检查是乳腺癌诊断的重要常规检查,这是由于其无创,无辐射和低成本的特性。但是,由于其固有的局限性,乳腺癌的诊断准确性仍然受到限制。如果我们可以通过乳房超声图像(BUS)精确诊断乳腺癌,那将是一个巨大的成功。已经提出了许多基于学习的计算机辅助诊断方法来实现乳腺癌诊断/病变分类。但是,其中大多数需要预定的ROI,然后对ROI内的病变进行分类。常规的分类骨架,例如VGG16和RESNET50,可以在没有ROI要求的情况下获得有希望的分类结果。但是这些模型缺乏解释性,因此限制了它们在临床实践中的使用。在这项研究中,我们提出了一种具有可解释特征表示的超声图像中乳腺癌诊断的新型无ROI模型。我们利用解剖学的先验知识,即恶性肿瘤和良性肿瘤在不同的组织层之间具有不同的空间关系,并提出了悬停转换器来提出这种先验知识。提出的悬停式跨界块水平和垂直地提取层间和层内空间信息。我们进行并释放一个开放的数据集GDPH&SYSUCC,以用于公共汽车中的乳腺癌诊断。通过与四个基于CNN的模型和两个Vision Transformer模型进行比较,通过五倍的交叉验证来评估所提出的模型。它通过最佳模型可解释性实现最新的分类性能。同时,我们提出的模型在仅给出一张公交图像时,在乳腺癌诊断方面优于两名高级超声检查员。
translated by 谷歌翻译
前列腺成像报告和数据系统(PI-RAD)基于多参数MRI类\ ^ EES患者分为5类(PI-RADS 1-5),用于常规临床诊断指导。但是,无论pi-rads 3患者是否应该经过活组织检查,都没有共识。这些硬样品(HS)的采矿功能对于医生来说是有意义的,以实现准确的诊断。目前,HS Biomarkers的采矿是Insu \`的,并且HS Biomarkers用于前列腺癌诊断的e \'助力性和稳健性尚未探讨。在这项研究中,构建了来自DI \'EERENT数据分布的生物标志物。结果表明,HS Biomarkers可以在DI \'EERENT数据分布中实现更好的性能。
translated by 谷歌翻译
组织病理组织分类是病理学癌症研究的基本任务。精确区分不同的组织类型是下游研究的好处,如癌症诊断,预后等。现有的作品主要利用计算机视觉中的流行分类骨干,以实现组织病理组织分类。在本文中,我们提出了一种超级轻型即插即用模块,名为金字塔深广阔的学习(PDBL),对于任何训练有素的分类骨架,以进一步提高分类性能而无需重新培训负担。我们模仿病理学家如何观察不同放大率的病理学幻灯片,并为输入图像构造图像金字塔,以获得金字塔内部信息。对于金字塔中的每个级别,我们通过我们提出的深层块(DB-Block)提取多种深度广泛的功能。我们用三个流行的分类骨干网,Shufflenetv2,EppositionNetB0和Reset50配备了PDBL,以评估我们建议模块在两个数据集(Kather Multiclass DataSet和LC25000数据集)上的提出模块的有效性和效率。实验结果表明,所提出的PDBL可以稳定地改善任何CNN骨架的组织级分类性能,特别是对于在训练样本(小于10%)中的小型时,特别是轻量级模型,这极大地节省了计算时间和注释工作。
translated by 谷歌翻译
使用X光片级注释(是或否疾病)和细粒病变级注释(病变边界框)开发了两个DL模型,分别为Chexnet和ChexDet。在测试集(n = 2,922)中比较了模型的内部分类性能和病变定位性能,在NIH-Google(n = 4,376)和Padchest(n = 24,536)数据集上比较了外部分类性能,以及外部病变的本地化性能性能在NIH-Chestx-Ray14数据集(n = 880)上进行了比较。还将模型与内部测试集子集的放射学家进行了比较(n = 496)。鉴于足够的训练数据,这两个模型都与放射科医生相当。 CHEXDET对外部分类有了显着改善,例如在NIH-Google上分类(ROC曲线下的ChexDet区域[AUC]:0.67:Chexnet AUC:0.51; P <.001)和PadChest(ChexDet AUC:0.78,Chexnet AUC,Chexnet AUC,Chexnet AUC,Chexnet auc:chexnet auc auc:chexnet auc auc auc:0.78,chexnet auc auc: :0.55; p <.001)。对于所有数据集的大多数异常,例如在内部集合中检测气胸(Chexdet Jacknife替代自由响应ROC的功绩[JAFROC-FOM]:0.87,0.87,CHEXNET JAFROC-FOM:0.113) ; p <.001)和NIH-Chestx-Ray14(Chexdet Jafroc-fom:0.55,Chexnet Jafroc-fom:0.04; p <.001)。总结,细粒的注释克服了快捷方式学习并启用了DL模型,以识别正确的病变模式,从而改善模型的概括性。
translated by 谷歌翻译
最大化单调性函数是机器学习,经济学和统计数据中的一项基本任务。在本文中,我们提出了单调连续DR-submodular最大化问题的两种通信效率分散的在线算法,这两者都减少了函数梯度评估的数量,并从$ t^{3/2}中降低了每轮的通信复杂性$至$ 1 $。第一个,单发的分散式元弗兰克 - 沃尔夫(Mono-dmfw),达到了$(1-1/e)$ - 遗憾的是$ o(t^{4/5})$。据我们所知,这是单调连续DR-submodular Maximization的第一个单发和无投射分散的在线算法。接下来,受到非界化的增强功能\ citep {zhang2022boosting}的启发,我们提出了分散的在线增强梯度上升(dobga)算法,该算法获得了$(1-1/e)$ - 遗憾的是$(\ sqrt {\ sqrt { t})$。据我们所知,这是获得$(1-1/e)$的最佳$ o(\ sqrt {t})$的第一个结果步。最后,各种实验结果证实了所提出的方法的有效性。
translated by 谷歌翻译
在本文中,我们在下闭合的凸套装上重新审视了在线非单调的DR-Submodular Mavimivel问题,该凸套装在机器学习,经济学和操作研究的领域中找到了广泛的现实世界应用。首先,我们以$ o(\ sqrt {t})$的价格呈现元MFW算法,价格为$ t^{3/2} $每回合。据我们所知,Meta-MFW是第一个获得$ 1/e $ - regret $ o(\ sqrt {t})$的算法放。此外,与ODC算法\ citep {thang2021online}形成鲜明对比的是,meta-mfw依赖于简单的在线线性甲骨文而无需离散化,提升或舍入操作。考虑到实用限制,我们然后提出了单声道-MFW算法,该算法将每个功能的随机梯度评估从$ t^{3/2} $减少到1,并实现$ 1/e $ -e $ -e-regret BOND $ O(t ^{4/5})$。接下来,我们将Mono-MFW扩展到Bandit设置,并提出Bandit-MFW算法,该算法获得了$ 1/e $ - regret键的$ O(t^{8/9})$。据我们所知,Mono-MFW和Bandit-MFW是第一个探索在线非占用dr dr-submodumarmimization thy pownlosed convex set的sumblinear-regret算法,可以探索单发和强盗设置。最后,我们对合成数据集和现实数据集进行了数值实验,以验证我们方法的有效性。
translated by 谷歌翻译
在本文中,我们在离线和在线设置中重新审视受约束和随机连续的子模块最大化。对于每个$ \ gamma $ -weakly dr-subsodular函数$ f $,我们使用因子显示优化方程来获得最佳辅助函数$ f $,其静止点提供$(1-e ^ { - \ gamma} )$ - 近似于全局最大值(表示为$ OPT $)的问题$ \ max _ {\ boldsymbol {x} \ in \ mathcal {c}} f(\ boldsymbol {x})$。当然,预计(镜子)渐变上升依赖于这种非忽视功能实现$(1-e ^ { - \ gamma} - \ epsilon ^ {2})Opt- \ epsilon $ o在$ o(1 / \ epsilon ^ {2})$迭代,击败传统$(\ frac {\ gamma ^ {2}} {1+ \ gamma ^ {2}})$ - 近似渐变上升\ citep {hassani2017gradientient},用于子模块的最大化。同样,基于$ F $,配备veriance减少技术的经典弗兰克 - 沃尔夫算法\ citep {mokhtari2018conditional}也返回一个大于$大于$(1-e ^ { - \ gamma} - \ epsilon ^ {2的解决方案})OPT- \ epsilon $ o $ o(1 / \ epsilon ^ {3})$迭代。在在线设置中,我们首先考虑随机梯度反馈的对抗延迟,我们提出了一种促进了具有相同非忽视搜索的在线梯度算法,实现了$ \ sqrt {d} $的遗憾(其中$ d $ where梯度反馈延迟的总和(1-e ^ { - \ gamma})$ - 近似到后智中最佳可行解决方案。最后,广泛的数值实验表明了我们提升方法的效率。
translated by 谷歌翻译
由于许多有趣的现实世界应用在物流和在线广告中,我们考虑一个在线分配问题,受降低资源和上部资源限制,请求顺序到达,取样I.I.D。从未知的分发,我们需要及时判断有限的资源和下限要求。首先,了解可行性的衡量标准,即$ \ Alpha $,我们提出了一种新的算法,该算法获得1美元(\ frac {\ epsilon} {\ alpha-\ epsilon})$-offline问题的竞争率这提前了解整个请求。灵感来自先前的研究,该算法采用了一种创新的技术来动态更新阈值价格向量以进行决策。此外,提出了估计可行性最佳测量的优化方法,并在本文末尾的理论保证。基于此方法,如果我们容忍与参数$ \ eta $的略微违反下限约束,则该算法自然地扩展到设置而不具有强烈可行的假设,这涵盖了显着的无法探索的不可行情景。
translated by 谷歌翻译
Training accurate deep neural networks (DNNs) in the presence of noisy labels is an important and challenging task. Though a number of approaches have been proposed for learning with noisy labels, many open issues remain. In this paper, we show that DNN learning with Cross Entropy (CE) exhibits overfitting to noisy labels on some classes ("easy" classes), but more surprisingly, it also suffers from significant under learning on some other classes ("hard" classes). Intuitively, CE requires an extra term to facilitate learning of hard classes, and more importantly, this term should be noise tolerant, so as to avoid overfitting to noisy labels. Inspired by the symmetric KL-divergence, we propose the approach of Symmetric cross entropy Learning (SL), boosting CE symmetrically with a noise robust counterpart Reverse Cross Entropy (RCE). Our proposed SL approach simultaneously addresses both the under learning and overfitting problem of CE in the presence of noisy labels. We provide a theoretical analysis of SL and also empirically show, on a range of benchmark and real-world datasets, that SL outperforms state-of-the-art methods. We also show that SL can be easily incorporated into existing methods in order to further enhance their performance.
translated by 谷歌翻译